通过计算机网络中的数据包路由激励,在线排队系统由队列接收不同速率的数据包组成。反复,他们将数据包发送到服务器,每个每一个只在大多数一个数据包处理一次。在集中式情况下,累积分组的数量保持有界(即,系统是\ Textit {stable}),只要服务率和到达率之间的比率大于1美元。在分散的案例中,当该比率大于2美元时,个人无遗憾的策略确保稳定。然而,Myopically最小化遗憾忽视了由于包裹到进一步的循环而导致的长期影响。另一方面,尽快减少长期成本导致稳定的纳什均衡,只要比率超过$ \ frac {e} {e-1} $。与分散的学习策略的稳定性低于2美元的比例是一个主要的剩余问题。我们首先争辩说,对于高达2美元的比例,学习策略的稳定性需要合作,因为自私最小化政策遗憾,\ Texit {患者}遗憾的遗憾,在这种情况下可能确实仍然不稳定。因此,我们认为合作队列并提出保证系统稳定性的第一次学习分散算法,只要速率比为1美元的比率,因此达到了与集中策略相当的性能。
translated by 谷歌翻译
我们为2022年MIP竞争开发的混合整数程序(MIP)提供了一个求解器。鉴于竞争规则确定的计算时间限制了10分钟,我们的方法着重于找到可行的解决方案,并通过分支机构进行改进 - 和结合算法。竞争的另一个规则允许最多使用8个线程。为每个线程提供了不同的原始启发式,该启发式是通过超参数调整的,以找到可行的解决方案。在每个线程中,一旦找到了可行的解决方案,我们就会停止,然后使用嵌入本地搜索启发式方法的分支和结合方法来改善现有解决方案。我们实施的潜水启发式方法的三种变体设法为培训数据集的10个实例找到了可行的解决方案。这些启发式方法是我们实施的启发式方法中表现最好的。我们的分支机构和结合算法在培训数据集的一小部分中有效,并且它设法找到了一个可行的解决方案,以解决我们无法通过潜水启发式方法解决的实例。总体而言,当用广泛的计算能力实施时,我们的组合方法可以在时间限制内解决训练数据集的19个问题中的11个。我们对MIP竞赛的提交被授予“杰出学生提交”荣誉奖。
translated by 谷歌翻译